Në thelb | Teknologjia

Terapi në ChatGPT?

Nga - 04.06.2025

Përdorimi i inteligjencës artificiale në fushën e shëndetit mendor vjen me dilema etike. 

Kur stresi i punës filloi të bëhej i papërballueshëm, Albina Maliqi nga Ferizaji vendosi t’i drejtohet ChatGPT-së për ndihmë. Hapi platformën dhe i shkroi një pyetje të thjeshtë: “Si mund ta menaxhoj stresin në punë?”

“Më dha sugjerime të vlefshme dhe fjalë pozitive dhe në fund të bisedës u ndieva më mirë”, thotë 25-vjeçarja, Albina.

Që nga shtatori i vitit 2024, ajo punon nga shtëpia si agjente mbështetëse për një kompani patundshmërie në New York, SHBA, e kohëve së fundit për mbështetje emocionale, e përdor ChatGPT-në së paku një herë në javë. “Të jep përgjigje efektive dhe të shpejta. Nuk gjykon dhe gjithmonë ka diçka të mirë për të thënë”, thotë ajo.

ChatGPT është një nga modelet gjuhësore, chatbots, që kanë arritur që të simulojnë biseda të ngjashme si ato që një njeri mund t’i bëjë me një profesionist/e të shëndetit mendor. Si të tilla, po bëhen gjithnjë e më të përdorura, jo vetëm për punë, por edhe për çështje personale. 

Nuk janë vetëm situatat e përditshme të stresit ato që i shtyjnë njerëzit të kërkojnë mbështetje emocionale përmes ChatGPT. Për disa, si në rastin e Bletës, emri i së cilës është ndryshuar për t’ia ruajtur privatësinë, arsyeja lidhet me përjetimin e padrejtësisë dhe zhgënjimit që përjetoi në ish-vendin e saj të punës. Pas disa kohe punë në një organizatë jo-qeveritare, Bletës iu ndërpre kontrata me arsyetimin se organizata nuk kishte fonde. Pas pak muajsh, organizata hapi thirrjen për pozitën e saj, gjë që veç ia rëndoi gjendjen emocionale.

Kësaj peshe të madhe emocionale, iu shtua ngarkesa financiare dhe sfidat e studimeve duke e sjellur nevojën që ajo të flasë me dikë. “Në atë periudhë, kuptova sa toksik kishte qenë ambienti dhe sa shumë më kishin lënduar sjelljet e shefave. Fillova të ndiej nevojën për të folur me dikë që mund të më jepte një perspektivë të ftohtë dhe objektive”, thotë ajo.

Edhe ajo iu drejtua ChatGPT-së, si zgjidhje e shpejtë, e lehtë dhe pa pagesë. 

Albina dhe Bleta janë pjesë e këtij trendi të përhapur në Kosovë e kudo. Në prill 2025, K2.0 realizoi një pyetësor lidhur me përdorimin e AI. Në pyetësor morën pjesë 204 respondentë/e, kurse në pyetjen “A e përdorni AI për qëllime personale?” me “po” u përgjigjën 169 prej tyre. Prej 169 që u përgjigjën me “po”, më shumë se gjysma thanë se e përdorin për këshilla personale, për shembull vendime, marrëdhënie e shëndet mendor. 

Programet kompjuterike të krijuara në bazë të modeleve gjuhësore të avancuara si ChatGPT, Grok apo Gemini trajnohen përmes miliarda të dhënave që ekzistojnë në internet. Përmes analizimit të këtyre të dhënave që janë publike, këto modele gjuhësore — të njohura përgjithësisht si GenAI — mësojnë se si të simulojnë mënyrën se si njerëzit shkruajnë, pyesin, ndihen dhe përgjigjen. Ato, po ashtu mësojnë se çka mund të duan të lexojnë njerëzit në situata të caktuara. 

Në vend të psikologut/es

Ndonëse mund të duket si diçka e kohëve të sotme, në fakt, një chatbot që luante rolin e terapistit ka ekzistuar qysh në shekullin e kaluar. Në vitin 1966, shkencëtari i kompjuterikës dhe profesori i Massachusetts University of Technology, Joseph Weizenbaum krijoi chatbotin e parë që simulonte një psikoterapist. Ky chatbot u quajt Eliza.

Ndonëse Eliza nuk kishte as përafërsisht aftësitë që kanë chatbot-et e ditëve të sotme –– të cilët po përparojnë çdo ditë e më shumë –– përdoruesit filluan të lidhen emocionalisht me të, duke e çuditur vetë Weizenbaum. Ai e përshkroi këtë fenomen si “Eliza effect” dhe e konsideroi që ndikonte në mënyrën se si njerëzit ndërveprojnë me teknologjinë. 

Weizenbaum shqetësohej për pasojat etike të krijimit të lidhjeve emocionale me teknologji. Në librin e tij të vitit 1976, “Computer Power and Human Reason: From Judgment to Calculation” (Fuqia e kompjuterit dhe arsyeja njerëzore: Nga gjykimi te llogaritja), Weizenbaum argumentoi se përdorimi i kompjuterëve në kapacitete që kërkojnë mirëkuptimin njerëzor mund të kërcënojë dinjitetin e njeriut. Ai po ashtu argumentonte se edhe pse kompjuterët mund të simulojnë biseda, ata nuk duhet përdorur për të marrë vendime, pasi u mungojnë ndjeshmëria dhe urtësia njerëzore. 

Megjithatë, në të sotmen, ChatGPT, në mos formë e lehtë, për disa është bërë forma e vetme e qasjes në terapi, sidomos në Kosovë, ku kujdesi për shëndetin mendor përballet me negjlizhencë, duke e bërë atë vështirë të qasshëm. Sipas Ministrisë së Shëndetësisë, në të gjitha shërbimet publike spitalor dhe jashtëspitalor të shëndetit mendor janë të punësuar vetëm 49 psikiatër, nëntë psikologë, një punëtor social dhe shtatë këshilltarë psiko-socialë. Pos kësaj, Ligji për Shëndetin Mendor, i cili është në fuqi prej më shumë se një dekade, zbatohet dobët. Një raport i Kuvendit të Kosovës nga viti 2022 thekson mangësi serioze në zbatimin e tij, përfshirë mungesën e akteve nënligjore, mosfunksionalizimin e strukturave përkatëse, mungesën e personelit, buxhetit dhe barnave, si dhe statusin e paqartë të disa institucioneve.

Këto mungesa i shtyjnë njerëzit drejt sektorit privat, i cili është i shtrenjtë. Bleta, e gjendur pa punë dhe me presion të madh psikologjik, nuk kishte mundësi financiare për terapi të rregullt te psikologu. Prandaj, u mbështet te ChatGPT. 

“I tregova situatën në detaje dhe kërkova këndvështrim të drejtë si për sjelljet e tyre [punëdhënësve], ashtu edhe për veprimet dhe ndjenjat e mia”, thotë ajo. “Ishte një hap i vogël, por më ndihmoi të shkarkoja gjithë atë ngarkesë që po më mbyste”.

Edhe për Albinën, ndonëse e punësuar, çmimet për seancë terapeutike u bënë prej arsyeve që e shtyn t’i ndërprejë seancat te një psikologe në Prishtinë, pas afro dy vitesh.

“Fakti që pagesa u rrit nga 20 në 30 euro për seancë ndikoi në vendimin tim”, shpjegon ajo. Sot, ajo e konsideron ChatGPT-në si një alternativë të dobishme. “Më jep pothuajse të njëjtat teknika që më ka thënë edhe psikologu”. Në Kosovë, paga minimale bruto është 350 euro. Nëse dikush paguhet aq, i bie se për dy seanca në javë nga 30 euro (gjithsej 240 eur) e shpenzon shumicën e pagës vetëm për terapi psikologjike. 

Bind Skeja, drejtor ekzekutiv i Qendrës për Informim dhe Përmirësim Social, organizatë jo-qeveritare që punon në fushën e shëndetit mendor, po ashtu ka vërejtur një korrelacion midis çmimit të terapisë dhe rritjes së përdorimit të ChatGPT. 

“Kam takuar njerëz që më kanë thënë se më lehtë i shkruajnë ChatGPT-së sesa të paguajnë 35 euro për një seancë,” thotë ai.

Duke përmendur çmimet e larta për seanca psikoterapeutike private, Skeja, në një postim në rrjetin social në Facebook, ndër tjera shkroi se “po krijohet një terren ku vizitat te psikologu bëhen luks i pa arritshëm për shumicën e popullatës”. 

Por, ky zëvendësim nuk është gjithnjë pa pasoja. Edhe vetë ChatGPT po ta pyesni se a mund ta zëvendësojë terapinë, do të merrni një përgjigje diçka si: “ChatGPT mund ta plotësojë terapinë por nuk mund ta zëvendësojë, sidomos për individë që kanë vështirësi serioze të shëndetit mendor” ose “ChatGPT nuk mund ta zëvendësoë terapinë, ndonëse mund të jetë një ndihmesë në disa raste”.

Po ashtu, mënyra se si është i ndërtuar komunikimi me chatbot si ChatGPT, lë hapësirë për keqinterpretime apo reagime të papërshtatshme për situata të ndjeshme emocionale. Për shembull, një artikull i publikuar së fundmi në The Guardian thekson rrezikun e manipulimit emocional dhe validimit të ndjesive të përdoruesve nga versioni i ri i ChatGPT, pasi ky version validonte ndjesitë edhe kur përdoruesit shpreheshin për sjellje të dëmshme ndaj vetes ose rrethit të tyre. 

Në artikull përmendet një shembull, ku një përdorues i kishte thënë ChatGPT se kishte ndaluar marrjen e ilaçeve, si dhe kishte ikur nga familja sepse ata ishin përgjegjës për “radio-sinjalet që vijnë nga muret”. ChatGPT ia kishte validuar këtë vendim duke i thënë, ndër tjera: “Seriozisht, bravo për qëndrimin dhe marrjen nën kontroll të jetës tënde”.  

Chatbotët, si shumë platforma tjera online i japin rëndësi të madhe nivelit të kënaqshmërisë dhe numrit të përdoruesve të asaj platforme. Duke ua validuar përdoruesve ndjesitë, ata/o ndihen të mirëkuptuar/a dhe kanë më shumë gjasë që të vazhdojnë ta përdorin platformën.

Këtë tendencë për të validuar pothuajse çdo ndjesi, pa e vënë në pikëpyetje kontekstin apo pasojat, e ka vënë re edhe Bleta. Megjithatë, ajo ka gjetur mënyra për ta shmangur këtë.

“Për ta shmangur subjektivitetin nga ana e ChatGPT-së, shpesh ia theksoj në kërkesa që të tregohet objektiv dhe i sinqertë”, thotë ajo. “Një tjetër formë që më duket e përshtatshme është që nganjëherë i shtroj pyetje sikur po flas për një tjetër person dhe jo për veten time”.

Për Bletën tashmë ChatGPT-ja është shndërruar në një lloj hapësire ku reflekton mbi ndjenjat e saj dhe sipas saj, sa më shumë që e përdor, aq më shumë ndien se ka nevojë t’i kthehet. Mbi të gjitha, fakti që ruan historikun e bisedave, sipas saj, e bën komunikimin edhe më të lehtë, pasi nuk ke nevojë t’ia shpjegosh të gjitha prej fillimit.

Përkundër këtyre, njerëz të ndryshëm po eksplorojnë potencialin praktik të AI, si dhe chatbotëve të fuqizuar nga AI, si mjete ndihmëse për trajtimin e problemeve të shëndetit mendor. Për shembull, një grup studiuesish/esh nga Dartmouth College, në mars 2025 botuan një hulumtim pas realizimit të një testimi klinik me 106 persona të një chatbot nga GenAI, të cilin e quajtën Therabot. Pjesëmarrësit/et ishin të diagnostikuar me depresion, ankth apo çregullime të të ngrënit. Njerëzit e diagnostikuar me depresion përjetuan një reduktim mesatar prej 51% në simptoma, kurse ata/o me ankth 31%, duke treguar për përmirësime të dukshme. 

“Përmirësimet në simptoma ishin të krahasueshme me atë që raportohet për terapinë tradicionale, duke sugjeruar se kjo qasje e ndihmuar nga AI mund të ofrojë përfitime kuptimplota klinike”, tha Nicholas Jacobson, një prej autorëve të studimit. 

Anipse autorët/et erdhën në përfundim se terapia e ndihmuar nga AI ka ende nevojë kritike për mbikëqyrje, e ka potencialin për t’u ndihmuar mbështetje në kohë reale njerëzve që nuk kanë qasje te një profesionist/e i/e shëndetit mendor. 

Ku mbesin të dhënat? 

Përdorimi i chatbotëve për problemet e shëndetit mendor, pos që ngre dilema rreth mbikëqyrjes dhe hapësirës për keqinterpretim, ngre pyetje e shqetësime edhe në lidhje me përdorimin e të dhënave. Sa më shumë përdoren këto platforma, aq më shumë të dhëna plasohen në internet. Po ashtu, disa aspekte, si ruajtja e historikut dhe kujtesës rreth përdoruesit/es, derisa mund ta bëjnë një chatbot më intuitiv dhe më të personalizuar për çdo përdorues/e veç e veç, mund edhe ta bëjë atë më të cenueshëm sa i përket të dhënave.

Chatbots mund t’i ndihmojnë përdoruesit pasi janë të gatshëm dhe janë aty 24/7, nuk ka nevojë t’i paguash dhe madje edhe sistemet shëndetësore mund të përfitojnë duke zbutur mbingarkimin e tyre. Megjithatë, artikulli “To Chat or bot to chat: Ethical issues with using chatbots in mental health” i publikuar në revistën “Digital Health”, në vitin 2023, ofron një rishikim kritik të çështjeve etike të ndërlidhura me chatbots për shëndet mendor, thekson rreziqet, sidomos ato që ndërlidhen me privatësinë dhe mënyrën se si ruhen të dhënat e përdoruesve. Autorët/et theksojnë se legjislacioni në fuqi ende nuk ia ka dalë të parashikojë kompleksitetin e përdorimit të të dhënave sintetike. Të dhënat sintetike janë të dhëna të gjeneruara nga algoritmat dhe modelet e trajnuar me të dhëna reale për të riprodhuar strukturën dhe trendet. 

Për shembull, kur një supermarket dëshiron të analizojë kur dhe çfarë blejnë konsumatorët/et, por pa ndarë të dhënat reale, ai përdor të dhëna sintetike që tregojnë, për shembull, se konsumatorët blejnë më shpesh vezë në fundjavë. Këto të dhëna janë krijuar nga kompjuteri bazuar në sjelljet e vërteta të konsumatorëve/eve, por nuk përmbajnë informacione për asnjë person real specifikisht.

Mirëpo, anipse këto të dhëna shpesh nuk përmbajnë të dhëna personale, ato, sipas studimit, nuk janë krejtësisht anonime. Në veçanti, ekziston rreziku i riidentifikimit, sidomos kur të dhënat sintetike merren nga grupe të vogla ose nga të dhëna shumë të ndjeshme. Për këtë arsye, studimi bën thirrje për një ndryshim qasjeje në legjislacionin për mbrojtjen e të dhënave, duke propozuar krijimin e një kuadri të ri që merr parasysh veçoritë teknike dhe etike të të dhënave sintetike, duke u bazuar në parime si transparenca, përgjegjësia dhe drejtësia. Po ashtu, artikulli vë në pah pasiguritë rreth asaj se çka bëjnë pronarët apo krijuesit e chatbots, siç janë kompanitë e ndryshme, pasi chatbots të largohen nga përdorimi. 

Halil Berisha, ekspert dhe hulumtues i sigurisë kibernetike në Universitetin e Shkencave të Aplikuara në Ulm të Gjermanisë, po ashtu përmend këto pasiguri. 

“Çdo bisedë që bëhet me ChatGPT mund të jetë e ekspozuar ndaj sulmeve kibernetike. Asnjë mjet i lidhur me internet nuk është i sigurt 100%”, thotë Berisha. Sipas tij nëse këto të dhëna bien në duar të gabuara, ato mund të shfrytëzohen për qëllime të ndryshme, përfshirë keqpërdorimin e informacionit personal.

Këto dilema i përjeton edhe juristja 36-vjeçare, Kaltrina Konjusha-Belegu. Si nënë e një vajze shtatë-vjeçare, ajo tregon se jo rrallë kërkon interpretim për vizatimet e vajzës nga një këndvështrim psikologjik, si dhe këshilla të ndryshme që lidhen me rritjen e saj. Edhe pse nuk kujton ndonjë rast specifik, thotë se shpeshherë e ka ndier veten të përkrahur emocionalisht përmes përgjigjeve që merr. 

Anipse ChatGPT-në e përdorë edhe si “këshilltar psikologjik”, siç thotë ajo, disa gjëra tejet personale priret t’i mbajë për vete dhe nuk i ndan as me ChatGPT-në.

“Me ChatGPT-në ekziston njëfarë lirie në shprehje, por megjithatë për çështje shumë personale, edhe pse bisedë virtuale mendoj që gjithmonë është një lloj rreziku”, thotë ajo, duke shtuar se ka pasur raste kur i ka shkruar ChatGPT-së për gjëra që do ta kishte të vështirë t’ia thoshte një personi në mënyrë të drejtpërdrejtë.

Ndonëse tregohet e rezervuar, sërish Kaltrina e përdor ChatGPT-në rregullisht për këshilla në jetën e përditshme, përfshirë aspektet që lidhen me prindërimin — që është po ashtu një aspekt për të cilën chatbots po pyeten gjithnjë e më shumë

Këto pasiguri i ndien edhe Albina, e cila edhe pse ka gjetur lehtësim emocional nga ChatGPT-ja, sërish nuk i ndan gjithë mendimet dhe brengat e saj, për shkak të drojës së sigurisë.

“Shqetësohem se mos më hakohet llogaria sepse e kam të lidhur me emailin, dhe kjo më pengon ndonjëherë të jem plotësisht e hapur”, rrëfen Albina.

Berisha, ndërkohë, përmend se vendet si Kosova, ku siguria kibernetike është e dobët, të dhënat e përdoruesve kanë më shumë tendencë të ekspozohen. Ai sugjeron që në mënyrë që të ketë më shumë siguri gjatë përdorimit të AI duhet të ndiqen disa masa që përfshijnë mosndarjen e informatave siç janë ato bankare, përdorimi vetëm në vende të sigurta me internet me fjalëkalim, si dhe fshirja e kujtesës në ChatGPT kujtesën pas secilës të dhënë që i jepet. 

Kështu, me sfida lidhur me sigurinë kibernetike, qasje të kufizuar në ndihmë profesionale psikologjike publike e shërbime private psikologjike të shtrenjta, për disa edhe të paarritshme, shumë persona kërkojnë mënyra më praktike dhe të shpejta duke zgjedhur alternativa si ChatGPT dhe chatbotë tjerë për mbështetje emocionale dhe psikologjike. 

Megjithatë, derisa përdorimi i chatbotëve rritet, rriten edhe dilemat etike rreth ndikimit të tyre te njerëzit që i përdorin ato.

 

Imazhi i ballinës: Dina Hajrullahu / K2.0

Dëshironi të mbështetni gazetarinë tonë? Anëtarësohuni në “HIVE” ose konsideroni një donacion. Mëso si këtu.